# 热门搜索 #
搜索
搜索: Distilling
谷歌开源一种AI的微调方法:逐步提炼,让小模型也能媲美2000倍体量大模型

大型语言模型能力惊人,但在部署过程中往往由于规模而消耗巨大的成本。华盛顿大学联合谷歌云计算人工智能研究院、谷歌研究院针对该问题进行了进一步解决,提出了逐步微调(Distilling Step-by-Step)的方法帮助模型训练。

来自主题: AI技术研报
3288 点击    2023-10-24 23:46